HV Authorised Person (Experienced with HV Systems) Electrical/Mechanical Engineering HNC or HND (Successfully completed apprenticeship in either) C&G Pts. 1 & 2, equivalent or exceeds. 17th Edition IEE: Wiring and Installation (Ability to attain 18th Edition through additional training) C&G 2391 test and inspection; BS 7671:2001 for inspection, testing and certification. Proven experience in data centre operations management, preferably in a mission-critical environment.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Du begleitest Schnittstellen end-to-end: von der Anforderungsaufnahme über Design und Umsetzung bis hin zu Tests, Rollout und Betrieb – gemeinsam mit Deinen Kolleg*innen und externen Partnern. Du arbeitest eng mit unseren Fachbereichen zusammen, priorisierst pragmatisch nach Wirkung und entwickelst Lösungen konsequent aus dem Business heraus.
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Ihre Aufgaben: Leitung und Mitarbeit von Projekten im Bereich Digitalisierung und Datenanalyse Optimierung, Digitalisierung und Automatisierung der KPI-Landschaft Erstellung und Pflege von Berichten und Echtzeit-Dashboards Implementierung von Monitoringsystemen zur automatischen Abweichungsbenachrichtigung Erstellung von Best Practices und Dokumentationen im Datenmanagement Aktive Beteiligung an Verbesserungsprojekten, Umsetzung von AOS-Bricks und der EDD-Datenstrategie Koordination mit zentraler IT, „Methoden & Tools“ und externen Dienstleistern für Industrialisierung von Anwendungen (Spezifikationen, Tests, Datenprodukte) Organisation und Durchführung von Upskilling-Sessions zur Förderung von Datenkompetenzen Ihr Profil: Abgeschlossenes Studium (mind.
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
ROAS, CAC, conversion rates) and conduct ad‑hoc analyses to answer specific business questions.You support A/B tests, campaign evaluations, as well as forecasting and scenario analyses.You help ensure data quality, perform plausibility checks, and support tracking concepts and data integrations.You analyze customer journeys as well as lead and B2B funnels (MQL/SQL) and derive data‑driven recommendations to optimize performance.You work closely with performance marketing, eCommerce, and external agencies, and use AI‑driven analysis methods to evaluate user behavior.
Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?
The role ensures that customer processes, data formats, and quality requirements are correctly understood, translated, and implemented in the map handling standard software or related solutions that support semiconductor manufacturing from wafer test through assembly and final test. The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
Datenmigration & Prozessunterstützung Du unterstützt bei Datenmigrationen sowie systemnahen Tests, um die Qualität neuer oder veränderter Daten sicherzustellen. Außerdem dokumentierst du Datenmanagementprozesse und hilfst bei der Erstellung von Trainingsunterlagen für die Stammdatenpflege.
Daten Analyse Webanalysen zur Auswertung der Seitennutzung Umsetzung, Testen und Automatisierung von Clusteranalysen zur Segmentierung von Endkunden und BankenAufbereitung von Rohdaten aus verschiedenen QuellenAusführliches Testing und Automatisierung für wiederkehrende ProzesseRetraining und Aktualisierung von Machine-Learning-Modellen Fundierte Kenntnisse in Oracle SQL, Python und Git Sicherer Umgang mit Azure Machine LearningBankenerfahrung / Finance Daten (Must Have)Versiert im Einsatz von PowerBI Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Ihr Kontakt Referenznummer 864539/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Working closely with Product Owners and cross-functional teams, you’ll provide full-cycle A/B test analytical support, create tracking concepts, and translate user behavior and shop performance insights into actionable business recommendations.
Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
End-to-End-Verantwortung für Material-/Teilestammdaten in SAP S/4HANASicherstellung von Datenqualität und GovernanceAnlage & Pflege von Materialarten und Stammdaten-SichtenPflege von Basisdaten (Maße/Gewichte, EAN/GTIN, Gefahrstoffe, Zeichnungsstände)Verwaltung von MRP-/DispositionsparameternPflege von Einkaufsdaten (Infosätze, Lieferantenmaterialnummern, Preise)Zusammenarbeit mit Einkauf, SCM, Produktion, QM, Vertrieb, Finance und EngineeringDurchführung von Datenmigrationen inkl. Mapping, Tests und ValidierungReporting & KPIs zur Datenqualität und Prozessleistung Erfahrung im Teilestammdatenmanagement, idealerweise in Industrie/FertigungGute Kenntnisse in SAP ERP / S/4HANA (Materialstamm, Basis-MM-Prozesse)Vertraut mit S/4HANA-Fiori-Apps zur StammdatenpflegeGrundverständnis von End-to-End Supply-Chain-ProzessenSicherer Umgang mit Excel inkl.
Entwicklung datenbasierter Optimierungsvorschläge zur Steigerung der Shop-Performance Erstellung eines verständlichen, umsetzungsorientierten Maßnahmenkatalogs Weiterführende Aufgaben: Durchführung von Usability-Tests Sicherstellung einer benutzerfreundlichen Customer Journey Xovi als SEO- und Online-Marketing-Tool für Keyword-Recherche, Wettbewerbsanalyse, Onpage-Analyse etc.
B2B tools and message standards, middleware, SOA concepts, data communications, visibility tools)Ability to analyze and decompose business needs into sets of IT requirementsSolid knowledge of Test Management, Change Management, Configuration ManagementCustomer OrientatedStrong ability to solve problems and propose suitable, alternative solutions and interpersonal and influencing skillsStrong organizational awareness and experience in managing medium scale projects/ consultancy assignments (6-12 months) with direct business impact and firm deadlinesExcellent written and verbal communication skillsProactive WHAT IS THE PLUS POINT(S) ·Java/Angular/NodeJS Web Development Knowledge.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-WorkflowSehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung)Praktische Erfahrung mit SQL und DatenmodellierungErfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen EncodingsSichere Zusammenarbeit über Git (Pull Requests, Branching)Erfahrung mit Vektor-Datenbanken (z.B.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-Workflow Sehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung) Praktische Erfahrung mit SQL und Datenmodellierung Erfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen Encodings Sichere Zusammenarbeit über Git (Pull Requests, Branching) Erfahrung mit Vektor-Datenbanken (z.B.
Dieser Job ist im Rahmen der Arbeitnehmerüberlassung mit Option auf Übernahme bei unserem Auftraggeber zu besetzen. Deine Aufgaben Du entwickelst, wartest und testest Datenpipelines zur neartime-Verarbeitung von Kundendaten nach modernen Software- und Data-Engineering-Prinzipien.Du stellst die Infrastruktur für Datenkonsument:innen sowie Machine-Learning-Modelle bereit und erschließt relevante Datenquellen technisch.Du dokumentierst technische Entscheidungsgrundlagen und bewertest verbundene Risiken.Du bringst Dich aktiv in die Optimierung der Entwicklungsprozesse im Team ein von CI/CD über DevOps bis hin zu MLOps.Du unterstützt dabei, aus Mensch-Maschine-Interaktionen automatisiert zu lernen und Kundenerlebnisse kontinuierlich zu verbessern.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Responsibilities Full ownership of app marketing campaigns (Facebook, Instagram, Google, Apple) from strategy to execution Define, monitor, and analyze KPIs (e.g., ROAS, CPI) to enable data-driven decisions Manage budgets, forecast performance, and scale campaigns to maximize results Run analyses, A/B tests, and experiments to drive continuous optimization Track industry trends and identify growth opportunities with strategic initiatives Collaborate with Design, Media, Analytics, and Tech teams on creatives and automation Mentor junior team members and share best practices Requirements Degree in business administration or related field (e.g., media management, e-commerce) 1.5+ years of experience in app marketing, ideally in a fast-paced environment Strong analytical skills with ability to interpret data and derive actionable insights Knowledge in app marketing, including campaign setup & targeting; Paid Social (e.g., Meta Advantage+ catalogue ads) is a plus Hands-on experience with Adjust, Meta Business Manager, Google Ads, Apple Search Ads, App Stores, Smartly or similar tools Excellent English skills, both written and spoken Benefits Hybrid working Täglich frisches Obst Sportkurse Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Company Events Relocation Unterstützung Mobilitätszuschlag Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities and ethnicities feel welcomed and accepted exactly as they are.
Arbeitsort: Stuttgart Ihre Aufgaben Übernahme und eigenständige Verantwortung von Teilsystemumfängen im DevOPs unsererHR Planning, Reporting und Data Analytics Produkte - Business Partner Abstimmung und Requirements Engineering DevOps Steuerung über Business Partner - interne IT, inklusive Plattform – externe Provider Applikationsübergreifender Lead für den Rechenzentrumsumzug (DataCenterMove) der HR Planning, Reporting und Analytics Funktionen- Koordination der internen Application-Owner zum DCM (Projekte beantragen, Steuerung …) Abstimmung mit anderen HR Produkten, Plattform und IT Infrastruktur Abstimmung mit ITP DCM Kernteam Orchestrierung der Maßnahmen zusammen mit den internen Application-Ownern Projektleitungsaufgaben für Implementierungsprojekte im Data Analytics und BI Bereich Ihr Profil Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, Wirtschaftsingenieurwesen oder eine vergleichbare Ausbildung Mehrjährige Erfahrung in Konzeption, Implementierung, Rollout und Betrieb von DataWarehouse Produkten (SAP/ORACLE/Microsoft/IBM/FOSS …) Erfahrung in der Leitung von IT-Projekten, Linienbetrieb und der Steuerung von IT- Lieferanten Erfahrung mit den Prozessen und Methoden der agilen Softwareentwicklung (SCRUM, KANBAN), produktorientierter Zusammenarbeit und DesignThinking Gutes technisches IT Verständnis sowie Affinität zu Softwareentwicklungsmethoden Verhandlungssichere Deutsch- und Englischkenntnisse Erfahrung als Entwickler (m/w/d) für SAP BW on/4 HANA, SAC, SAP DWC Erfahrung mit MS PowerBI, Tableau, QlikView oder anderen Reporting / BigData- Analysetools Erfahrung mit System- und Datenintegrationen Erfahrung mit automatisiertem Testen Analytisch-konzeptionelles Denkvermögen, Problemlösungskompetenz und Kreativität Kommunikations- und Moderationsfähigkeit sowie soziale Kompetenz Strukturierte, eigenverantwortliche Arbeitsweise Integrations- und Teamfähigkeit Ausgeprägte Anwenderorientierung Wir bieten Die Sicherheit eines großen, global tätigen Unternehmens mit hohen Standards für die Arbeitssicherheit Attraktive, der Qualifikation entsprechende Vergütung Unbefristete Anstellung Ein interessantes und vielseitiges Aufgabenfeld Individuelle Weiterbildung und Entwicklungsprogramme sowie vielfältige Karrieremöglichkeiten So geht’s weiter Bewerben Sie sich bitte direkt online, indem Sie auf den Button „JETZT AUF DIESE STELLE BEWERBEN“ klicken.
Supporto alla qualità del dato e ai processi PLM Collabora alle attività di verifica, manutenzione e miglioramento della qualità del dato materiale, controllando completezza e correttezza rispetto agli standard definiti nel progetto PLM. Supporta inoltre semplici attività di test funzionali e di standardizzazione dei processi di gestione dati. Collaborazione trasversale con le funzioni della Divisione Opera in un contesto trasversale, interfacciandosi con R&D, Supply Chain, Qualità e CSR per la condivisione e l’allineamento delle informazioni sui materiali.
Als integraler Bestandteil unseres Teams gestaltest und entwickelst du innovative Backend-Services auf Basis von Kotlin mit Spring Boot und Ktor, wobei du stets ganzheitlich über den gesamten Stack hinweg denkstMit deinem Know-how gestaltest und implementierst du robuste Schnittstellen (REST/APIs) und modellierst sowie optimierst unsere Datenbanken (PostgreSQL, idealerweise auch Neo4j)Du bist maßgeblich an der Entwicklung, dem Deployment und dem Betrieb unserer Anwendungen in einer modernen Cloud-nativen Umgebung (AWS, Kubernetes) beteiligtDu erstellst und pflegst eigenständig automatisierte Tests, unterstützt unsere CI/CD-Pipelines und arbeitest eng mit Product Ownern und anderen Entwicklungsteams zusammen, um die besten Lösungen zu findenDeine Expertise ist gefragt bei der Fehleranalyse, dem Bugfixing und der kontinuierlichen Verbesserung unserer bestehenden Komponenten, optional bringst du dich auch in die Umsetzung und Pflege von Frontend-Komponenten mit React ein Du verfügst über ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation und bringst fundierte praktische Erfahrung in der Backend-Entwicklung mit Kotlin, Spring Boot und Ktor mitDer sichere Umgang mit Datenbanken wie PostgreSQL und idealerweise auch Neo4j ist für dich selbstverständlich und du bewegst dich souverän in der Cloud-nativen Welt, mit fundierter Erfahrung in Kubernetes, AWS, GitHub Actions und TerraformIdealerweise hast du bereits Berührungspunkte mit React oder die Motivation, dich in Frontend-Themen einzuarbeiten.Du bist lösungsorientiert, packst Herausforderungen gerne an und bist stets offen für neue Technologien und kontinuierliche WeiterentwicklungSehr gute Deutsch- und Englischkenntnisse in Wort und Schrift, eine strukturierte Arbeitsweise sowie die Freude an der Zusammenarbeit im Team runden dein Profil ab Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen BrancheEin hoch motiviertes Team und ein offener Kommunikationsstil Ihr Kontakt Referenznummer 861935/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Supporto alla qualità del dato e ai processi PLM Collabora alle attività di verifica, manutenzione e miglioramento della qualità del dato materiale, controllando completezza e correttezza rispetto agli standard definiti nel progetto PLM. Supporta inoltre semplici attività di test funzionali e di standardizzazione dei processi di gestione dati. Collaborazione trasversale con le funzioni della Divisione Opera in un contesto trasversale, interfacciandosi con R&D, Supply Chain, Qualità e CSR per la condivisione e l’allineamento delle informazioni sui materiali.
Als integraler Bestandteil unseres Teams gestaltest und entwickelst du innovative Backend-Services auf Basis von Kotlin mit Spring Boot und Ktor, wobei du stets ganzheitlich über den gesamten Stack hinweg denkst Mit deinem Know-how gestaltest und implementierst du robuste Schnittstellen (REST/APIs) und modellierst sowie optimierst unsere Datenbanken (PostgreSQL, idealerweise auch Neo4j) Du bist maßgeblich an der Entwicklung, dem Deployment und dem Betrieb unserer Anwendungen in einer modernen Cloud-nativen Umgebung (AWS, Kubernetes) beteiligt Du erstellst und pflegst eigenständig automatisierte Tests, unterstützt unsere CI/CD-Pipelines und arbeitest eng mit Product Ownern und anderen Entwicklungsteams zusammen, um die besten Lösungen zu finden Deine Expertise ist gefragt bei der Fehleranalyse, dem Bugfixing und der kontinuierlichen Verbesserung unserer bestehenden Komponenten, optional bringst du dich auch in die Umsetzung und Pflege von Frontend-Komponenten mit React ein Du verfügst über ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation und bringst fundierte praktische Erfahrung in der Backend-Entwicklung mit Kotlin, Spring Boot und Ktor mit Der sichere Umgang mit Datenbanken wie PostgreSQL und idealerweise auch Neo4j ist für dich selbstverständlich und du bewegst dich souverän in der Cloud-nativen Welt, mit fundierter Erfahrung in Kubernetes, AWS, GitHub Actions und Terraform Idealerweise hast du bereits Berührungspunkte mit React oder die Motivation, dich in Frontend-Themen einzuarbeiten.
Je nach Schwerpunkt unterstützt du bei der Entwicklung moderner Anwendungen, beim strukturierten Koordinieren von Projekten oder beim Testen von Apps und Datenflüssen. Uns ist wichtig, dass du nicht nur mitläufst, sondern aktiv mitarbeitest, Verantwortung übernimmst und dich fachlich weiterentwickeln kannst.
Designing and maintaining ArcGIS Enterprise environments (portal, hosting/federated servers, datastores) Publishing, configuring, and optimizing services throughout their lifecycle Implementing reliable multi-environment content deployment for databases, services, and applications Automating workflows with arcpy and ArcGIS API for Python for ETL, validation, and spatial processing Architecting and administering enterprise Geodatabases, including rules, domains, subtypes, relationships, and archiving Troubleshooting and resolving Geodatabase performance or data-integrity issues Planning and executing large-scale historical data migrations, including mapping, transformation, and validation Managing migration risks and documenting outcomes for both technical and non-technical audiences Building and troubleshooting integrations using ArcGIS REST APIs and webhooks, including real-time sync logic Providing structured production support, performing first-level RCA, documenting integrations, and contributing to UAT test books ArcGIS Enterprise mastery: deep experience with portal, hosting/federated servers, datastores, plus hands-on service publishing, configuration, and lifecycle management Advanced automation skills: strong proficiency with arcpy and ArcGIS API for Python for ETL, data processing, and deployment workflows Enterprise Geodatabase expertise: architecture/design (rules, domains, subtypes, relationships, archiving) plus proven ability to diagnose and fix performance and integrity issues Historical data migration leadership: large-scale migration planning, mapping, transformation logic, validation, risk mitigation, and documentation for diverse stakeholders Integration & production support: hands-on work with ArcGIS REST APIs, webhooks, real-time sync/reconciliation mechanisms, first-level RCA, and integration architecture analysis Location: 100% Remote Language: English Ihr Kontakt Referenznummer 866056/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Lesen Sie weiter… Mit Ihren Kenntnissen aus dem Studium und Ihrer Leidenschaft für das Thema können Sie bei den folgenden Aufgaben Erfahrungen bei uns sammeln: Erstellung von automatisierten Analysen und Bewertungen von aufgenommenem Bildmaterial und Datensätzen mittels Methoden aus Statistik und Data Mining sowie u.U. auch unter Miteinbezug von Sensor- und Navigationsdaten Merkmalsextrahierung und Analyse von Datensätzen mittels KI-basierten tiefen neuronalen Netzen Implementierung, Tests und Analyse von Verfahren zur dynamischen Anpassung von Kamera- und Bilddaten für die KI-Algorithmik im Zuge von Flugaufnahmekampagnen Erstellung von Datensätzen und Arbeit mit Datenbanksystemen Pflege von internen Dokumenten- und Wissensverwaltungssystemen Bei Interesse Unterstützung bei der Durchführung von Versuchskampagnen im Feld mehr weniger WAS SIE DAFÜR MITBRINGEN SOLLTEN Immatrikulation in einem Studiengang der Informatik, Computer Vision, Statistik, Data Analytics o.ä.
Du probierst aus, testest, optimierst – mit viel Raum für Wachstum und Entwicklung. Du erklärst KI-Lösungen verständlich – für Fachbereiche, IT-Teams und Kunden.
Du probierst aus, testest, optimierst – mit viel Raum für Wachstum und Entwicklung. Du erklärst KI-Lösungen verständlich – für Fachbereiche, IT-Teams und Kunden.
WHAT YOU WILL DO ·Assist resolving issues of minor significance ·Help to liaise with other internal departments or project teams for completion of project deliverables ·Apply standard methodologies when creating new programs and applications (developing and coding from specifications) or when maintaining existing ones ·Assist in customizing Commercial off-the-shelf (COTS) based on pre-determined parameters, and executes customizing tests ·Document work using the required standards, methods and tools e.g. produce program and system documentation ·Work with team/ colleagues to ensure plans, processes and activity are aligned to customer needs ·Actively share knowledge or experience with others ·Provide additional support when colleagues require time away to attend training/ development programs ·Convey consistent stated personal values through actions and decisions ·Apply data analysis and data modeling techniques to establish, modify or maintain a data structure and its associated components ·Design, code, test, correct, and document simple programs, and assist in the implementation of software which forms part of a properly engineered information or communications system APPLICATION YOU WILL USE: ·Java and J2EE frameworks, HTML, CSS, JavaScript, WebLogic, Spring, Hibernate and JSF WHAT YOU SHOULD HAVE: If you are highly motivated, creative and desireto start and develop your IT career in afast-paced environment, you have come to the right place!
YOUR TASKS Lead and manage cross‑functional projects with a strong focus on data management and digitalization in quality and logistics operations Analyse user requirements and translate them into structured business blueprints in alignment with IT and business stakeholders Drive global roll‑outs of digital and quality‑related operational processes, including concepts, documentation and training programs Conduct process mapping, process design and process‑mining activities to optimize workflows and operational performance Coordinate and execute user acceptance tests and guide operational functions through validation phases Perform market research, benchmarking and feasibility assessments to evaluate new tools and solutions Develop proof‑of‑concepts and ensure alignment between operational needs, technical capabilities and rollout readiness YOUR PROFILE Several years of project management experience, including at least 3 years in multiple PM roles and complex operational environments Recognized project management certification (GPM IPMA, PMP, SCRUM or equivalent) Proven track record in digitalization projects involving SAP, MES, incident management or comparable systems Strong expertise in process management, including process mapping, design methodologies and process‑mining techniques Deep understanding of operational requirements such as user acceptance testing and design‑to‑operations workflows Highly structured, self‑driven working style with strong execution capabilities in fast‑moving environments Willingness to travel and strong communication skills with fluency in English and German (Spanish is a plus) YOUR BENEFITS In addition to the opportunity to make our world a little more sustainable, we offer you: *Some offers may vary by location Nordex adheres to a policy of equal employment opportunity.
WHAT YOU WILL DO Assist resolving issues of minor significance Help to liaise with other internal departments or project teams for completion of project deliverables Apply standard methodologies when creating new programs and applications (developing and coding from specifications) or when maintaining existing ones Assist in customizing Commercial off-the-shelf (COTS) based on pre-determined parameters, and executes customizing tests Document work using the required standards, methods and tools e.g. produce program and system documentation Work with team/ colleagues to ensure plans, processes and activity are aligned to customer needs Actively share knowledge or experience with others Provide additional support when colleagues require time away to attend training/ development programs Convey consistent stated personal values through actions and decisions Apply data analysis and data modeling techniques to establish, modify or maintain a data structure and its associated components Design, code, test, correct, and document simple programs, and assist in the implementation of software which forms part of a properly engineered information or communications system APPLICATION YOU WILL USE: Java and J2EE frameworks, HTML, CSS, JavaScript, WebLogic, Spring, Hibernate and JSF WHAT YOU SHOULD HAVE: If you are highly motivated, creative and desire to start and develop your IT career in a fast-paced environment, you have come to the right place!
WHAT YOU WILL DO Assist resolving issues of minor significance Help to liaise with other internal departments or project teams for completion of project deliverables Apply standard methodologies when creating new programs and applications (developing and coding from specifications) or when maintaining existing ones Assist in customizing Commercial off-the-shelf (COTS) based on pre-determined parameters, and executes customizing tests Document work using the required standards, methods and tools e.g. produce program and system documentation Work with team/ colleagues to ensure plans, processes and activity are aligned to customer needs Actively share knowledge or experience with others Provide additional support when colleagues require time away to attend training/ development programs Convey consistent stated personal values through actions and decisions Apply data analysis and data modeling techniques to establish, modify or maintain a data structure and its associated components Design, code, test, correct, and document simple programs, and assist in the implementation of software which forms part of a properly engineered information or communications system APPLICATION YOU WILL USE: Java and J2EE frameworks, HTML, CSS, JavaScript, WebLogic, Spring, Hibernate and JSF WHAT YOU SHOULD HAVE: If you are highly motivated, creative and desire to start and develop your IT career in a fast-paced environment, you have come to the right place!
WHAT YOU WILL DO Assist resolving issues of minor significance Help to liaise with other internal departments or project teams for completion of project deliverables Apply standard methodologies when creating new programs and applications (developing and coding from specifications) or when maintaining existing ones Assist in customizing Commercial off-the-shelf (COTS) based on pre-determined parameters, and executes customizing tests Document work using the required standards, methods and tools e.g. produce program and system documentation Work with team/ colleagues to ensure plans, processes and activity are aligned to customer needs Actively share knowledge or experience with others Provide additional support when colleagues require time away to attend training/ development programs Convey consistent stated personal values through actions and decisions Apply data analysis and data modeling techniques to establish, modify or maintain a data structure and its associated components Design, code, test, correct, and document simple programs, and assist in the implementation of software which forms part of a properly engineered information or communications system APPLICATION YOU WILL USE: Java and J2EE frameworks, HTML, CSS, JavaScript, WebLogic, Spring, Hibernate and JSF WHAT YOU SHOULD HAVE: If you are highly motivated, creative and desire to start and develop your IT career in a fast-paced environment, you have come to the right place!
Du entwickelst und verwaltest Lösungen, die Verfügbarkeit, Qualität und Quantität sicherstellen – und damit die Basis für unsere digitalen Geschäftsprozesse schaffen. Das sind Deine Aufgaben Du konzipierst, entwickelst und testest Datenbanken sowie Software-Schnittstellen und stellst diese anschließend bereit Du entwickelst und verwaltest Lösungen zur betrieblichen Datenanalyse (Business Intelligence) und stellst diese anschließend bereit Du programmierst in Golang, Python, Java, C# oder ähnlichen Programmiersprachen Du ermittelst und beseitigst systematisch Fehler in bestehenden Systemen Du verwaltest Datenbanken von gängigen Datenbanksystemen wie SQL, MySQL, PostgreSQL, usw.
Your role Design, implement, and optimize SAP S/4HANA FI/CO solutions based on business requirements Configure and customize SAP FI/CO module, develop specifications, and support cutover, go-live, and hypercare Collaborate with stakeholders and technical teams to deliver solutions and act as a liaison Identify and implement process improvements, provide incident support, and resolve recurring issues Develop and execute test plans, manage defect tracking, and support user acceptance testing Create and maintain documentation Ensure compliance with company policies, industry standards, and data security Stay updated on SAP trends and propose innovative solutions Your profile Experience in SAP business process improvement, system integration, configuration management, testing, service and data management Ability to work collaboratively in cross-functional teams and delivering SAP solutions to your stakeholders Adherence to occupational safety, quality management, environmental protection, and IT security guidelines Strong analytical and problem-solving skills Excellent communication and presentation abilities Proficiency in project management methodologies (e.g., Agile) Attention to detail and commitment to delivering high-quality solutions Fluent language skills in German and English Look forward to Mobile and flexible working, 30 days of vacation, and the option of 20 days of workation (within the EU) Individual onboarding and personal and professional development opportunities supported by our People Development Team Company health management with fitness and sports offerings (EGYM Wellpass, sporting events, health weeks) Employer contribution to capital-forming benefits Latest-generation mobile devices, also for private use Additional benefits for you in the form of capital-forming benefits, bicycle leasing, discounted leasing of new IT equipment for private use, and corporate benefits We look forward to hearing from you!
What you will do: Focus on the design, development, and execution of automated end-to-end tests Manage and prioritize bug reports, keeping their business value in mind Lead regression testing, identify and resolve defects to ensure the stability of high-traffic customer interactions and transactions Analyze complex workflows, data flows, and database interactions to identify potential areas for improvement in test coverage and performance Report bugs and reproduce them throughout the complete bug cycle Coordinate testing efforts to ensure the delivery of quality features Advocate for product quality within cross-functional teams Contribute to ABOUT YOU’s long-term automation strategy in testing Who you are: 4+ years of experience in QA, testing, and debugging REST backend applications, with strong knowledge of HTTP methods, status codes, headers, and error handling Proficient in API validation against OpenAPI/Swagger specifications 4+ years of experience with JavaScript/TypeScript or other OOP languages, using frameworks like Mocha/Playwright, and GitlabCI 2+ years of experience working with relational and NoSQL databases, focusing on integration and data flows Passionate about automation and building maintainable test suites that provide continuous feedback, with strong skills in both exploratory and automated testing Experienced with agile methodologies Excellent communication skills, including fluent written and spoken English for clear collaboration Solid understanding of transaction systems, gateways, customer data, and large-scale database structures Committed to identifying and addressing issues early, ensuring high-quality customer-facing features and services Benefits Hybrid working Fresh fruit every day Sports courses Free access to code.talks Exclusive employee discounts Free drinks Language courses Company parties Help in the relocation process Mobility subsidy Central Location Flexible Working Hours Professional training Dog-friendly office Feedback Culture Job Bikes YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities, and ethnicities feel welcomed and accepted exactly as they are.
CI/CD-Integration: Integrieren Sie automatisierte Tests in unsere CI/CD Pipeline, um kontinuierliche Tests und schnelles Feedback sicherzustellen. Integration der automatisierten Tests in die Plattform-übergreifende Automatisierungstest-Suite und deren einheitliche Test- und Reportingstruktur.